Blog /

Enjeux politiques : 5 mesures pour rectifier la législation proposée par le Canada en matière d’IA

Enjeux politiques : 5 mesures pour rectifier la législation proposée par le Canada en matière d’IA

Si le projet de loi C-27 est adopté tel quel, il limitera involontairement l’investissement et l’adoption de l’IA par les entreprises de toutes tailles, ce qui nuira encore plus aux niveaux de productivité déjà stagnants du Canada.

14 mai 2024

L’enveloppe de 2,4 milliards de dollars pour l’intelligence artificielle (IA) incluse dans le budget fédéral de 2024 est une étape positive pour l’écosystème de l’IA du Canada, mais pour conserver notre avantage concurrentiel dans ce domaine, il faudra bien plus que de l’argent. Il est essentiel que le paysage réglementaire fédéral en matière d’IA soit en phase avec le financement. Si elle est adoptée telle quelle, la législation canadienne proposée en matière d’IA (partie 3 du projet de loi C-27) limitera involontairement l’investissement et l’adoption par les entreprises.

À l’heure où le retard de productivité et le déclin de la compétitivité mondiale du Canada ont atteint de tels extrêmes que la Banque du Canada a déclaré une situation d’urgence nationale, les entreprises canadiennes ne peuvent pas se permettre de reléguer aux oubliettes l’adoption de l’intelligence artificielle. 

S’il ne fait aucun doute que le gouvernement a un rôle clair à jouer dans la protection du public par le biais d’une législation réfléchie sur l’IA, le projet de loi C-27 devrait fournir au Canada un modèle législatif clair pour réglementer l’IA en équilibrant ses risques et ses avantages. Actuellement, ce n’est pas le cas.

En mars, la Chambre du Canada, au nom de nos membres, a soumis une lettre au Comité permanent de l’industrie et de la technologie de la Chambre des communes avec des recommandations pour modifier le projet de loi C-27. Voici cinq des correctifs que nous recommandons :

Fournir une définition claire des « systèmes à incidence élevée »

Il est important que le projet de loi comprenne une définition des « systèmes à incidence élevée » au lieu d’utiliser une approche de classification générale qui repose sur des scénarios et des cas d’utilisation dont certains prennent dans leurs filets des systèmes « à faible incidence ».

Une définition claire permettra aux entreprises de connaître avec certitude leurs obligations.

Le projet de loi devrait définir la notion d’incidence élevée de manière à ce qu’elle se concentre sur les utilisations conséquentes qui ont une incidence matérielle, juridique ou similaire sur le logement, l’emploi, le crédit, l’éducation, les soins de santé, la justice pénale ou l’assurance.

Ne pas réglementer les systèmes d’IA à usage général (GPAI) sur la base de notre compréhension actuelle de leurs capacités

Les risques liés aux systèmes GPAI dépendant du contexte, les stratégies d’atténuation devraient également dépendre du contexte.

Les développeurs de systèmes GPAI ne peuvent pas anticiper toutes les applications possibles de leur produit et les risques associés. Les utilisateurs en aval sont mieux placés pour se conformer aux obligations qui en découlent. Le projet de loi C-27 devrait réglementer les systèmes GPAI en fonction de leur rôle dans la chaîne d’approvisionnement.

Il est important que notre législation reconnaisse que nous n’avons pas encore une vision complète de l’IA et de toutes ses applications possibles. En concevant une législation technologiquement neutre et fondée sur les risques et les principes, nous pouvons créer des réglementations durables dans un contexte où les changements sont rapides et qui s’appliqueront de la même manière aux technologies émergentes.

Aligner la législation sur celle de nos partenaires commerciaux internationaux

Les travaux sur l’IA sont menés à l’échelle mondiale. Il est dans l’intérêt du Canada de ne pas adopter à la hâte une législation qui pourrait le mettre en porte-à-faux par rapport à ses principaux partenaires commerciaux.

Le projet de loi C-27 devrait préciser que les réglementations à venir doivent s’aligner sur les normes internationales de gouvernance de l’IA et promouvoir l’interopérabilité (lorsqu’un produit ou système peut fonctionner avec, échanger ou utiliser des informations provenant d’un autre produit ou système) pour les entreprises canadiennes à l’étranger.

Préciser le champ d’application de la responsabilité pénale

Le Canada est le seul pays à avoir inclus la responsabilité pénale dans sa législation sur l’IA.

Il s’agit là d’un écart important par rapport aux normes internationales. Le projet de loi C-27 devrait préciser que la responsabilité pénale s’applique à l’utilisation intentionnelle et flagrante des systèmes d’IA à des fins de préjudice physique et de fraude grave. Non seulement cela permettra au Canada d’être un chef de file dans la lutte contre l’utilisation des systèmes d’IA pour des actes intentionnels, mais cela évitera de décourager l’investissement dans l’IA en raison du risque perçu et accru d’exploitation.

Supprimer le pouvoir d’accès à distance

Les amendements du ministre Champagne au projet de loi C-27 proposent une disposition qui accorderait au gouvernement un large pouvoir d’accès à distance aux systèmes informatiques des entreprises à l’intérieur et à l’extérieur du Canada.

Cette disposition soulève de sérieuses inquiétudes concernant l’espionnage industriel et la cybersécurité. Quelle que soit l’intention du gouvernement canadien concernant ce pouvoir légal, s’il est adopté, il créera un précédent inquiétant pour les gouvernements étrangers, en particulier ceux qui ont des antécédents troublants en matière de droits de la personne.

Qu’est-ce que cela signifie pour les entreprises?

Si le projet de loi C-27 est adopté tel quel, il limitera involontairement l’investissement et l’adoption de l’IA par les entreprises de toutes tailles, ce qui nuira encore plus aux niveaux de productivité déjà stagnants du Canada.

À l’heure actuelle, le projet de loi n’offre pas suffisamment de certitude et de clarté en ce qui concerne les définitions, les applications ou même la responsabilité pénale, ce qui rend l’intégration de l’IA dans les activités des entreprises difficile, complexe et risquée.

Étant donné que l’IA, en particulier l’IA générative, peut contribuer à résoudre le problème de la productivité au Canada et offrir des avantages commerciaux directs, comme l’accélération du développement de contenu créatif et l’augmentation de l’automatisation des tâches sans réduction de la main-d’œuvre, le gouvernement fédéral ne devrait pas se précipiter pour faire adopter notre législation sur l’IA dans son état actuel. D’autant plus que nous avons le temps de bien faire les choses, dans l’intérêt de tous les Canadiens.

Lisez la lettre de la Chambre de Commerce du Canada dans son intégralité ici.

Share this